X射线荧光光谱(XRF)在广泛的科学领域,尤其是在文化遗产中,在元素分析中起重要作用。使用栅格扫描来获取跨艺术品的光谱的XRF成像为基于其元素组成的颜料分布的空间分析提供了机会。然而,常规的基于XRF的色素识别依赖于耗时的元素映射,该元素映射通过测量光谱的专家解释。为了减少对手动工作的依赖,最近的研究应用了机器学习技术,以在数据分析中聚集相似的XRF光谱并确定最可能的颜料。然而,对于自动色素识别策略,直接处理真实绘画的复杂结构,例如色素混合物和分层色素。此外,与平均光谱相比,基于XRF成像的像素颜料识别仍然是障碍物。因此,我们开发了一个基于深度学习的端到端色素识别框架,以完全自动化色素识别过程。特别是,它对浓度较低的颜料具有很高的敏感性,因此可以使令人满意的结果基于单像素XRF光谱映射颜料。作为案例研究,我们将框架应用于实验室准备的模型绘画和两幅19世纪的绘画:Paul Gauguin的Po \'Emes Barbares(1896),其中包含带有底层绘画的分层颜料,以及Paul Cezanne的沐浴者(1899--1899-- 1904)。色素鉴定结果表明,我们的模型通过元素映射获得了与分析的可比结果,这表明我们的模型的概括性和稳定性。
translated by 谷歌翻译
Unbiased learning to rank (ULTR) studies the problem of mitigating various biases from implicit user feedback data such as clicks, and has been receiving considerable attention recently. A popular ULTR approach for real-world applications uses a two-tower architecture, where click modeling is factorized into a relevance tower with regular input features, and a bias tower with bias-relevant inputs such as the position of a document. A successful factorization will allow the relevance tower to be exempt from biases. In this work, we identify a critical issue that existing ULTR methods ignored - the bias tower can be confounded with the relevance tower via the underlying true relevance. In particular, the positions were determined by the logging policy, i.e., the previous production model, which would possess relevance information. We give both theoretical analysis and empirical results to show the negative effects on relevance tower due to such a correlation. We then propose three methods to mitigate the negative confounding effects by better disentangling relevance and bias. Empirical results on both controlled public datasets and a large-scale industry dataset show the effectiveness of the proposed approaches.
translated by 谷歌翻译
人搜索是多个子任务的集成任务,例如前景/背景分类,边界框回归和人员重新识别。因此,人搜索是一个典型的多任务学习问题,尤其是在以端到端方式解决时。最近,一些作品通过利用各种辅助信息,例如人关节关键点,身体部位位置,属性等,这带来了更多的任务并使人搜索模型更加复杂。每个任务的不一致的趋同率可能会损害模型优化。一个直接的解决方案是手动为不同的任务分配不同的权重,以补偿各种融合率。但是,鉴于人搜索的特殊情况,即有大量任务,手动加权任务是不切实际的。为此,我们提出了一种分组的自适应减肥方法(GALW)方法,该方法会自动和动态地调整每个任务的权重。具体而言,我们根据其收敛率对任务进行分组。同一组中的任务共享相同的可学习权重,这是通过考虑损失不确定性动态分配的。对两个典型基准(Cuhk-Sysu and Prw)的实验结果证明了我们方法的有效性。
translated by 谷歌翻译
时空预测是数据科学的急需主题,因为它在智能城市中的多样化和关键应用。现有作品主要对以下步骤进行连续预测,并完全连续地获得观察结果,其中最接近的观测值可以作为瞬时状态估计的关键知识。但是,早期活动计划和传感器失败的实际问题引发了一项全新的任务,即非连续预测。在本文中,我们将缺少观察的时空学习系统定义为灰色时空系统(G2S),并为G2S(FDG2S)提出了一个因子耦合学习框架(FDG2S),其中核心的想法是层次结构上的多层级别,并既可以启用灵活的聚合柔性聚合因子和不确定性估计。首先,为了补偿缺失的观察结果,设计了一个通用的语义邻次序列采样,该采样选择了代表性序列以捕获周期性的规律性和瞬时变化。其次,我们将非连续状态的预测变成了预期的外源性因素下的推断状态。特别是,提出了一个因子耦合的聚合方案,以通过条件随机场的两个能量函数解除因子诱导的预测强度和区域邻近。为了在柔性因子组合和实现动态邻域聚集下推断区域的接近性,我们进一步消除了外源性因素对区域接近性的复合影响,并学会汇总它们。鉴于G2的固有不完整和关键应用,提出了一个不确定性量化,以确定可靠性保证和模型解释的两种类型的不确定性。
translated by 谷歌翻译
过度参数化神经网络(NNS)的小概括误差可以通过频率偏见现象来部分解释,在频率偏置现象中,基于梯度的算法将低频失误最小化,然后再减少高频残差。使用神经切线内核(NTK),可以为训练提供理论上严格的分析,其中数据是从恒定或分段构剂概率密度绘制的数据。由于大多数训练数据集不是从此类分布中汲取的,因此我们使用NTK模型和数据依赖性的正交规则来理论上量化NN训练的频率偏差,给定完全不均匀的数据。通过用精心选择的Sobolev规范替换损失函数,我们可以进一步扩大,抑制,平衡或逆转NN训练中的内在频率偏差。
translated by 谷歌翻译
最近的作品表明了解释性和鲁棒性是值得信赖和可靠的文本分类的两个关键成分。然而,以前的作品通常是解决了两个方面的一个:i)如何提取准确的理由,以便在有利于预测的同时解释; ii)如何使预测模型对不同类型的对抗性攻击稳健。直观地,一种产生有用的解释的模型应该对对抗性攻击更加强大,因为我们无法信任输出解释的模型,而是在小扰动下改变其预测。为此,我们提出了一个名为-BMC的联合分类和理由提取模型。它包括两个关键机制:混合的对手训练(AT)旨在在离散和嵌入空间中使用各种扰动,以改善模型的鲁棒性,边界匹配约束(BMC)有助于利用边界信息的引导来定位理由。基准数据集的性能表明,所提出的AT-BMC优于分类和基本原子的基础,由大边距提取。鲁棒性分析表明,建议的AT-BMC将攻击成功率降低了高达69%。经验结果表明,强大的模型与更好的解释之间存在连接。
translated by 谷歌翻译
在本文中,我们提出了FXAM(快速可解释的添加剂模型),统一和快速可解释模型的预测分析。 FXAM将GAM的(广义添加剂模型)扩展到具有统一添加剂模型的模型,用于数值,分类和时间特征。 FXAM进行一种新颖的培训程序,称为三级迭代(TSI)。三个阶段分别对应于学习数值,分类和时间特征。通过固定其他阶段的参数,每个阶段都学习本地最佳。我们设计联合学习过度学习,占时间特征的部分学习,以实现高精度和培训效率。我们证明了TSI保证融合到全球最优。我们进一步提出了一套优化技术来加速FXAM的培训算法,以满足交互式分析的需求。评估验证FXAM在训练速度和建模分类和时间特征方面显着优于现有的游戏。
translated by 谷歌翻译
我们在$ gi/gi/1 $队列中研究动态定价和容量大小问题,服务提供商的目标是获得最佳服务费$ p $ $ p $和服务能力$ \ mu $,以最大程度地提高累积预期利润(服务收入减去人员配备成本和延迟罚款)。由于排队动力学的复杂性质,这种问题没有分析解决方案,因此以前的研究经常诉诸于交通重型分析,在这种分析中,到达率和服务率都发送到无穷大。在这项工作中,我们提出了一个旨在解决此问题的在线学习框架,该框架不需要系统的规模增加。我们的框架在队列(GOLIQ)中被称为基于梯度的在线学习。 Goliq将时间范围组织为连续的操作周期,并开出了有效的程序,以使用先前的周期中收集的数据在每个周期中获得改进的定价和人员配备策略。此处的数据包括客户到达的数量,等待时间和服务器的繁忙时间。这种方法的创造力在于其在线性质,这使服务提供商可以通过与环境进行互动来更好。 GOLIQ的有效性得到了(i)理论结果的证实,包括算法收敛和遗憾分析(对数遗憾的束缚),以及(ii)通过模拟实验进行工程确认,以了解各种代表性$ GI/GI/GI/1 $ $ $ $ $。
translated by 谷歌翻译
A recent study has shown a phenomenon called neural collapse in that the within-class means of features and the classifier weight vectors converge to the vertices of a simplex equiangular tight frame at the terminal phase of training for classification. In this paper, we explore the corresponding structures of the last-layer feature centers and classifiers in semantic segmentation. Based on our empirical and theoretical analysis, we point out that semantic segmentation naturally brings contextual correlation and imbalanced distribution among classes, which breaks the equiangular and maximally separated structure of neural collapse for both feature centers and classifiers. However, such a symmetric structure is beneficial to discrimination for the minor classes. To preserve these advantages, we introduce a regularizer on feature centers to encourage the network to learn features closer to the appealing structure in imbalanced semantic segmentation. Experimental results show that our method can bring significant improvements on both 2D and 3D semantic segmentation benchmarks. Moreover, our method ranks 1st and sets a new record (+6.8% mIoU) on the ScanNet200 test leaderboard. Code will be available at https://github.com/dvlab-research/Imbalanced-Learning.
translated by 谷歌翻译
Weakly-supervised object localization aims to indicate the category as well as the scope of an object in an image given only the image-level labels. Most of the existing works are based on Class Activation Mapping (CAM) and endeavor to enlarge the discriminative area inside the activation map to perceive the whole object, yet ignore the co-occurrence confounder of the object and context (e.g., fish and water), which makes the model inspection hard to distinguish object boundaries. Besides, the use of CAM also brings a dilemma problem that the classification and localization always suffer from a performance gap and can not reach their highest accuracy simultaneously. In this paper, we propose a casual knowledge distillation method, dubbed KD-CI-CAM, to address these two under-explored issues in one go. More specifically, we tackle the co-occurrence context confounder problem via causal intervention (CI), which explores the causalities among image features, contexts, and categories to eliminate the biased object-context entanglement in the class activation maps. Based on the de-biased object feature, we additionally propose a multi-teacher causal distillation framework to balance the absorption of classification knowledge and localization knowledge during model training. Extensive experiments on several benchmarks demonstrate the effectiveness of KD-CI-CAM in learning clear object boundaries from confounding contexts and addressing the dilemma problem between classification and localization performance.
translated by 谷歌翻译